Künstliche Intelligenz in der Verwaltung: IFG-Beauftragte von Bund und Ländern fordern Transparenz

Algorithmische Entscheidungsverfahren in der öffentlichen Verwaltung müssen eindeutig und für jeden nachvollziehbar sein. Das fordern die Informationsfreiheitsbeauftragten von Bund und Ländern. In einem Positionspapier machen sie Vorschläge, worauf Behörden und Gesetzgeber achten müssen.

In einem Wald steht ein futuristisches, rundes Objekt. Davor ein Schild mit der Aufschrift "Do not Enter".
Verwaltungshandeln darf nicht intransparent sein – auch, wenn Technik eingesetzt wird CC-BY-ND 2.0 Hldrmn

Algorithmische Systeme spielen in mehr und mehr gesellschaftlichen Bereichen eine wichtige Rolle. Vormals menschliche Entscheidungsprozesse werden durch sie vorbereitet oder sogar ersetzt. Was für Effizienz sorgen soll, bringt auch Risiken mit sich. Das gilt insbesondere auch für den Bereich der öffentlichen Verwaltung, wie die Informationsfreiheitsbeauftragen aus acht Bundesländern und die Bundesbeauftragte für Datenschutz und Informationsfreiheit, Andrea Voßhoff, jetzt deutlich machen.

Erst vor wenigen Tagen löste ein Bericht über den Einsatz von entscheidungsunterstützender Software im österreichischen Arbeitsamt eine kritische Debatte aus, weil der Algorithmus Frauen benachteiligt. In einem gemeinsamen Positionspapier(PDF) fordern die Informationsfreiheitsbeauftragten (IFG-Beauftragte) jetzt mehr Transparenz beim Einsatz von Algorithmen und Künstlicher Intelligenz (KI) im öffentlichen Bereich. Das Positionspapier entstand im Rahmen der 36. Konferenz der IFG-Beauftragten, die vergangenen Dienstag in Ulm stattfand. Die Beauftragen stehen als Kontaktpersonen für alle BürgerInnen zur Verfügung, die sich in ihrem Recht auf Informationszugang nach dem Informationsfreiheitsgesetz des Bundes als verletzt erachten.

Technik im öffentlichen Bereich muss grundrechtskonform sein

Dem Papier zufolge sollte algorithmische Entscheidungsfindung öffentlicher Verwaltungen nicht nur bei personenbezogenen Daten strengen Kontrollen unterliegen. Auch bei Sachdaten, die beispielsweise für die Instandhaltung von Straßen und Brücken ausgewertet werden, müssen die Systeme transparent arbeiten. „Entscheidungen der Verwaltungen müssen nachvollziehbar sein – dieser rechtsstaatliche Grundsatz ändert sich nicht, wenn Technik zum Einsatz kommt“, so Marit Hansen, Landesbeauftragte für Datenschutz in Schleswig-Holstein.

Die Technik müsse vertrauenswürdig sein und hohen qualitativen Standards entsprechen, damit sie grundrechtskonform eingesetzt wird. Schon heute würde in Behörden eingesetzte Software diesen Ansprüchen mitunter nicht gerecht, zukünftig werde das noch gravierender. Neue Technologien, die im öffentlichen Bereich die Bearbeitung von Aufgaben unterstützen oder sogar ersetzen, müssten zudem stets im Einklang mit dem Recht auf freie Information stehen und dürfen die Kontrollierbarkeit des Verwaltungshandelns nicht beeinträchtigen. Gesetzgeber von Bund und Ländern sollten deshalb jetzt Standards etablieren, fordern die Informationsfreiheitsbeauftragten. Eine Handlungsempfehlung: Eingesetzte Technik sollte strengen Prüfungen unterzogen werden, die in den bestehenden Gesetzen verankert werden.

Kein blindes Vertrauen in „intelligente“ Systeme

Konkret fassen die beteiligten Informationsfreiheitsbeauftragten ihre Anforderungen an die öffentlichen Stellen in sieben Punkten zusammen. Diese beziehen sich darauf, dass der Einsatz von KI im öffentlichen Bereich stets auf Rechtskonformität geprüft und im Zweifel auch abgelehnt werden müsse. Die bereits erwähnten Transparenzforderungen stehen in enger Verbindung damit, dass die Verantwortlichen selbst genau wissen müssen, unter welchen Prämissen die Entscheidungssysteme arbeiten. Das bedeutet, dass Verantwortliche keine Blackboxes einsetzen dürfen, sondern Ein- und Ausgabedaten, deren Gewichtung und die implementierte Logik verstanden haben müssen. Damit das gewährleistet werden kann, müssen bereits beim Design der Systeme Transparenzforderungen mit bedacht werden. Diese sollten zusätzlich durch genaue Dokumentationen und Protokolle, sowie durch die Veröffentlichung von Quelltexten realisiert werden.

Eine weitere Anforderung betrifft Sicherheitsmaßnahmen. Entscheidungen, die auf Basis der verwendeten Technologien gefällt werden, müssen insbesondere bei risikobehafteten Anwendungsfällen revidierbar sein. Ein System, welches das Vertrauen der BürgerInnen in die öffentliche Verwaltung nicht gefährdet, muss außerdem unter Beachtung der Menschenwürde und des Diskriminierungsverbotes arbeiten. Dafür muss insbesondere auf die Auswahl geeigneter Trainingsdaten geachtet werden, fordern die Informationsfreiheitsbeauftragten. Folgenabschätzungen schließlich sollten insbesondere bei selbstlernenden Systemen wiederholt vorgenommen werden, um die Nachvollziehbarkeit während des gesamten Einsatzes sicherzustellen.

Mehr Transparenz durch offene Software

Die Forderungen der Informationsfreiheitsbeauftragten machen deutlich, dass algorithmische Entscheidungsunterstützung als Machtmultiplikator der normativen Durchsetzung verstanden werden kann. In Algorithmen liegen Meinungen und Ansichten verankert, die vielfach verstärkt zum Tragen kommen. So können gerade selbstlernende Systeme schnell bestimmte Personengruppen diskriminieren, wenn mangelhafte Trainingsdaten verwendet werden oder die implementierte Gewichtung der Daten nicht verstanden wird. Deshalb ist es essenziell, dass diese Systeme für die Anwender nachvollziehbar und für die Betroffenen ausreichend transparent sind. Die Anforderungen in dem Positionspapier verweisen darauf, dass zusätzliche Transparenz auch durch die Offenlegung des Quellcodes der verwendeten Systeme geschaffen werden kann.

In Deutschland setzen sich seit Langem viele Organisationen, darunter Wikimedia, die Free Software Foundation oder der Chaos Computer Club dafür ein, dass öffentliche Stellen offene Software verwenden. Hinsichtlich der Finanzierung dieser Systeme über öffentliche Gelder ist das nicht nur sinnvoll, das Positionspapier verdeutlicht darüber hinaus auch die Wichtigkeit der damit verbundenen Transparenz: Soweit möglich, sollte die eingesetzte Technik öffentlich einsehbar sein, um eine Nachvollziehbarkeit sicherzustellen, Fehler frühzeitig zu erkennen und Manipulation vorzubeugen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.